【レポート】CUS-91:Edge Deep Learning におけるMLOps #AWSSummit

【レポート】CUS-91:Edge Deep Learning におけるMLOps #AWSSummit

Clock Icon2020.10.02

この記事は公開されてから1年以上経過しています。情報が古い可能性がありますので、ご注意ください。

こんにちは、CX事業本部の夏目です。

今回はAWS Summit Onlineのオンデマンドセッション「CUS-91:Edge Deep Learning におけるMLOps」についてのセッションレポート(文字起こし)になります。

導入

  • 初めまして、 LeapMindのInfrastructure Divisionにてエンジニアをしている増田と申します。
  • 本日はよろしくお願いいたします。

タイトル

  • それでは、LeapMind Extremely Low-bit Deep Liearning Solution x Cyclone V SoC FPGA x Amazon SageMaker & AWS IoT Greengrassを用いたEdge Deep LearningにおけるMLOpsと題しまして、私増田が発表させていただきます。

自己紹介

  • 改めまして、自己紹介をさせてください。私はですね LeapMind のInfrastructure Divisionにてエンジニアをしている増田と申します。
  • こちらに経歴あるように、2017年から LeapMind 入社しておりまして、主な業務内容としてはですね、ディープラーニングの学習環境やプロダクションサービスの CI/CD 環境の整備、クライアント案件でのインフラ構築など、幅広くインフラ領域に対して全般を担当しております。
  • 特にですね、学習性能の改善とか運用効率化、エンジニアの生産性の向上をするために、分散学習基盤の導入やK8sを利用したモデル学習のワークフロー整備なども行っております。

会社紹介

  • 次にですね、私の所属している LeapMind という会社について紹介させていただきます。
  • LeapMindはですね、機械学習を使った今までにないデバイスをあまねく世に広める、というミッションを掲げておりまして、現在は特にEdge環境でのディープラーニングの実現および社会実装を進めていくというところを主軸に事業展開しております。
  • 変革としては2012年に創業しておりまして、昨年までで合計約50億円の資金調達を行っております。

  • 先ほど説明したようにEdgeディープラーニングという領域にフォーカスしておりますが、こちらに紹介するような様々な領域において150を超えるプロジェクト実績を持っており、お客様とともにディープラーニング技術を使って課題解決を行っております。
  • 例えば、運転支援技術や工場での外観検査、ドローンの自動制御など、このようにですね様々な分野においてプロジェクトを行っております。

アジェンダ

  • はい、イントラアクションをこのぐらいにしてですね、本日のアジェンダについて説明いたします。
  • まずですね、なぜ Edge ディープラーニングが必要なのかということの説明をさせていただいた後に、LeapMindの技術について、どのようにですねEdge ディープラーニングを実現するのかということについて紹介させていただいて、最後にですね、 Edge ディープラーニングにおける MLOps と題しまして、 Edgeを実際に運用していくにあたって、どういった課題があって、それらの課題についてどのようにアプローチしていくかということについて紹介させていただければと思います。

なぜEdgeディープラーニングが必要なのか?

  • はい。ではなぜEdge ディープラーニングが必要なのか。

  • まずですねディープラーニングでできることと書かせていただいてますけども、最近はですねディープラーニングがかなり身近になってきておりまして、こちらで示すような、自動運転や機械翻訳など、バックエンドで多く利用されています。
  • ここでは詳しく説明しないんですけどもディープラーニングでの画像処理したりだとか音声データを処理したりだとかをすることで、我々の生活を非常にどんどん、ここでは少しずつと書いてますけど私としては非常にどんどん進歩させていっていますと考えております。

  • さらにですね、ここでは Edge ディープラーニング市場の拡大というタイトルにしていますけれども現在インターネットに繋がる IoT デバイスの市場規模は着実に成長しています。
  • これはですね総務省のデータなんですけども、 IoT デバイスの数がどんどん増えていくと予想されています。
  • その中でですね、デバイス上でのディープラーニングを実行するEdge ディープラーニングというものも、 IoT デバイスの数が増えるに従って伴って拡大していくというように我々は考えています。

  • では、なぜEdge ディープラーニングが必要なのかということについてそのメリットを説明します。
  • まずですね、Edgeデバイスで取得したデータを用いて、ディープラーニングを実行する方法は大きく二つあります。
  • 一つはそのデータをクラウドに上げてクラウド側で推論する方法です。
  • もう一つは、先ほどからEdge ディープラーニングと言っていますが、エッジデバイス上でディープラーニングのモデルを動かし推論する方法です。
  • クラウドにデータを上げて推論を実行する方法と比較して、こちらに示すようなメリットがEdge ディープラーニングにあります。
  • 一つ目はですねコストの削減、先ほど説明したようにクラウドへのデータのアップロードがありませんので、コストをネットワークコストを削減することが可能です。
  • 次に、応答速度ここはですねかなり大きい部分ですけども、ネットワーク通信のレイテンシを無視できるため、例えばクラウドでの推論ですとネットワーク上にデータを上げてその結果を持ってくるっていうレイテンシーが発生するんですが、Edge環境での推論を実行することでそのネットワークレイテンシを完全に無視することができます。
  • このようにですね、例えばですね自動運転とか、かなりシビアな応答速度を求められるような環境ですとEdgeディープラーニングのメリットが活きてくるようになります。
  • 次にですね、プライバシーという形で、よくディープラーニングでは画像認識が主に使われたりするんですけど、インプットとしてですね顔とか個人を認識するようなもの、個人の顔をデータとして取って推論するようなものがありますと。
  • そういったところにおいてですねクラウドにデータを上げるっていうところのプライバシーの問題になったりする部分があるんですけども、Edge環境で推論して結果だけを送信する形であると。そういったところのプライバシーの問題が解決できるという部分がメリットとして挙げられます。

  • ではですね、Edgeでやればいいじゃないという話になるんですけども、そこにはですね難しさというものがありますと。
  • こちらで示している限られた計算資源と書いていますけども、 Edge上でのディープラーニングの推論を行うので、エッジデバイス上での計算資源しか使えません。
  • さらにEdge環境っていうと電力であったりとか、熱であったりまた物理的なスペースなどいろいろな物理的な制限があって、デバイスも制限されますと。
  • そういった中でですね実際に限られた計算資源で、より計算量を落とした形でモデルの精度および速度っていうのを保っていくっていうことが求められてきます。
  • このようにですねEdge環境では計算資源が限られるので、その計算を限られた計算資源で、いかに精度および速度を保つかというところが難しさになってきます。
  • ここまででディープラーニングが必要なこととその難しさについて説明しました。

  • 次にですね、 LeapMind がどのような技術を持って、その難しさをどのように解決しているのかということについて紹介させていただきます。

  • ここでですね、ディープラーニングのモデル圧縮最適化手法について紹介いたします。
  • ディープラーニングをEdge環境で実行するにあたってですね、そのままディープラーニングサーバーと同じように学習利用するというよりかはですね、実際にですねそのモデルを圧縮したり、計算コストを下げるっていう作業が必要です。
  • そういったところの手法として代表的な四つをこちらで上げてさせていただいています。
  • 我々はですね詳しく説明しないんですけども量子化という最適化手法を利用しております。

  • ディープラーニングにおける量子化について簡単に説明いたします。
  • ディープラーニングで学習されたモデルはですね、大量の数値パラメーターが重み、アクティベーションと呼ばれるものなんですけども、にて構成されています。
  • 量子化はその数値を浮動小数点数 float という精度の高い表現高から8 bit 整数などのより低ビットな数値表現に書き換えることで、モデルのサイズを削減する手法になります。
  • こちらのイメージでですけども、このような浮動小数点数による精度高く、連続した数値を表現できるものから、整数などの離散的な数値表現に近似的に置き換えることを量子化といいます。一般にですね8 bit 整数に近似することでそれなりに精度を保つことができることが知られております。

  • そこでですね、我々は更にですね、極小量子化技術と我々が呼んでいるものなんですけども、この量子化技術、8 bit などはある程度の精度を保てるって話ですがパラメーターの値として通常用いられる値、floatの値を1ビットまたは2ビットに置き換えることで、ディープラーニングのモデルの軽量化を達成しています。
  • 通常の量子化よりもさらにですねbit数を削減して極小量子化技術という形で我々は 技術を提供しております。

  • ここでですね 先程言ったように一般的な量子化技術はですね8bitの整数までの量子化です。
  • 1bitにすればどうなるのかというと精度が落ちます。
  • ですが我々はですね、8bit未満の量子化についてもですね、学習時から量子化を行うことでこれを防いでいます。
  • 先ほど言った一般的な量子化技術においては学習済みの既に出来上がったモデルを、8 bitにする。
  • 8ビット以下にすると精度が落ちるというものでした。
  • 我々はですね学習中から量子化をアプライすることで、8ビット以下の量子化でも精度が保てるようにしております。
  • これ以外にもですね様々な工夫をしてより計算コストが下がるようなネットワークっていうものを作っております。

  • どういった形になるか、どのぐらいの圧縮ができるのかというところ、精度どうなるのかというところでこちらサンプルとして提示させていただいてます。
  • よくとMobile, Edge環境で使われるMobileNetV2というものと我々が構成しているLmnetV1、さらにそれをQuantize, 量子化したものの比較をこちらに表示しています。
  • MobileNetV2と比較すると、QuantizeしたLmnetV1は99%程度のモデル圧縮ができ、その上でですね精度劣化は、こちらですと1. 5ポイントのダウンですかね、のようにかなり最小限に抑えることができます。
  • このようなですね1. 5ポイントダウンとかのレベルで、そうですね精度が問題ないようなユースケース、結構多いと思っていてそういうそのような環境ですと、圧倒的に小さい計算コストやメモリサイズなので、Edge側での推論を実施することができるようになります。

  • はい、じゃ具体的に極小量子化が適した環境例、どういったものがあるのかというのは、これサンプルなんですけど例えば家電、電力とコスト放熱に制約のあるデバイスとして、テレビとかデジタルカメラ、これバッテリー駆動のもですね、ドローンとか、そういった様々なですね制約があるような環境、制約のあるようなデバイスにおいて極小量子化適しております。

  • ここまでですね、LeapMindのモデルの極小量子化技術について紹介しましたが、我々はですねそれだけではなくて、先ほど言ったように、モデルのパラメータは1ビットとか2ビットになるので、極小量子化技術を適用したモデルの計算をですね、より最適化した高速かつ超低消費電力で動作させるためのアクセラレーターIPを独自に開発しております。
  • 我々が提供する極小量子化技術を適用したモデルを我々が提供するアクセラレーターIPを用いることで、高速かつ超低消費電力、省スペースでの推論をすることが可能になります。

  • 最後にですねBlueoilと呼ばれる我々が提供するOSSについて紹介いたします。
  • 先ほどですね、LeapMindのもつ極小量子化技術はアプライするのに学習時から適用する必要があるとお伝えしたと思うんですけども、極小量子化技術を用いたディープラーニングモデルの学習および我々が提供する次のアクセラレータ IP 専用の実行バイナリを作成するためのソフトウェアを OSS として我々公開しております。
  • これがBlueoilと呼ばれるものでユーザー様はBlueoilを利用することで、我々もですね、技術の一端を体験することができるようになっております。

  • はい、ここまでですねEdge ディープラーニングを精度高く、超低消費電力で実現するためのLeapMindの技術について紹介してきました。
  • このようにですね我々はEdge環境でのディープラーニングの推論を行うための様々な技術を提供しておりましてお客様とともに実証実験等でその有用性を確認してきております。
  • その中でですね、さらにこのEdge ディープラーニングを適用して、世の中の課題を解決していくというときに、実際にお客様の環境にアプライしてそれを運用していくということが必要になってきます。
  • そういったときに課題になるようなところについて、本日はお話をと思います。

  • Edgeディープラーニングを商用導入して運用していく際に、課題がいくつかあります。
  • 今回はですね、このように大きく二つに分けてますが、一般に機械学習モデルの商用導入における課題として、データの管理、データセット 学習するためのデータの管理、およびその学習ですね実験の管理、さらにその学習によって作られたモデルの管理、そしてそのモデルに紐づくアプリケーション推論アプリケーションの管理などがあります。
  • 加えてですね、今回Edge環境でのディープラーニングなのでいわゆるEdge環境特有の課題として、Edgeデバイスの管理、さらにEdgeデバイスへのデプロイの管理、さらにそっからそこのデバイスからどうデータを収集するか、といったところが特有の課題として現れてきます。

  • 今回はこれらの課題をですね、 AWS のコンポーネントを使って解決するというのを紹介させていただきます。
  • 細かくは後で説明しますが大きく機械学習系の課題については Amazon SageMakerで、デバイス系の課題についてはAWS IoT Greengrassというものを利用しています。

  • ここでまたですねBluegrassというものを紹介させていただきます。
  • こちらはですね先ほど紹介したBlueoilと、 AWS のコンポーネントを利用したサンプルのMLOpsシステムという形で、 GitHubにてOSSとして公開しております。
  • 今回はこのBluegrassの構成を説明しつつ、どのように先ほどの課題が AWS のコンポーネントで解決されるかという点について紹介させていただきます。
  • こちらの技術の紹介については、詳細についてはですね、今回時間の関係上紹介できない部分もあるのですが、 GitHub にて全ての構成やソースコードが公開されておりますので、ぜひ技術的な詳細が気になる方は覗いていただければと思います。
  • また実際にこのコンポーネントを構築する方法や、これを利用したデモの実施方法などについて、ブログ等で紹介される予定でして、そちらのリンクもですね GitHub 上に上げておく予定ですのでぜひご確認いただけると嬉しいです。

  • まずですねAmazon SageMakerとは何かというところについてご説明いたします。
  • SageMakerはですね全ての開発者やデータサイエンティストが機械学習モデルを迅速に構築、トレーニングデプロイできるようにする完全 managed 型サービスです。
  • こちらに載せている図のようにですねデータのラベリング、トレーニングのための学習環境の構築、学習の実施と管理、および作成したモデルのデプロイと監視、のためのサービスがいくつも揃っております。
  • 機械学習を行おうとする際にですね本来は自前で準備しなければいけないことってかなりあるんですけども、こういったSageMakerなども AWS から提供されるマネジメントサービスを利用することで、例えば GPU の環境を自前で用意せずともSageMaker Notebooks経由でトレーニングJobを呼ぶことで、オンデマンドで GPU にインスタンスが立ち上がって学習を実行する、などのバックエンドの機能っていうのを簡単に利用することができます。
  • そういった形で機械学習モデルを簡単に構築することができるようになります。
  • またですねSageMaker Ground Truthを利用すると、データのラベリング機能がいくつものタスクについて準備されているので、自前のラベリングのための環境構築とかアプリケーション構築などをする必要がないというのもかなり重要な点であると考えています。
  • さらにデプロイと管理についてですが、学習したモデルをですねEC2などのインスタンスに簡単にデプロイすることができるようになっていて、そのモデルの監視などもできるようになっています。
  • このようなですねサービスを利用することで機械学習モデルの構築および管理を簡単に行えるようにでき、行うことができるようになるのがSageMakerの利点です。
  • 今回デプロイの管理の部分についてはですねEC2など、クラウド側にデプロイすることが前提になっているのでこの部分は使えないんですけど、トレーニングの部分までの利用となっています。
  • ではですねEdge環境にデプロイするにはどうするかという話になるんですけども、

  • ここでですね、 AWS IoT Greengrassというものを利用しています。
  • AWS IoT Greengrassは、クラウドの機能をローカルデバイスに拡張するソフトウェアです。
  • Edgeデバイス上に、AWS IT Greengrass Coreというソフトウェアをインストールすることで、そのデバイス上にてクラウド上で定義されたLambda関数つまりサーバーベースアプリケーションですね、を動かすことができるようになります。
  • またローカルデバイスは AWS IoT Core 経由でデータをエクスポートできるようになるので、ローカルデバイスをクラウド側のリソースとして管理することができるようになります。

  • さらにGreengrassではですね、Greengrassを利用することで、SageMakerなどでトレーニングしたモデルを使用して、ローカルに生成されたデータに対して、内側で推論を実施することができるようになります。
  • 加えてその推論結果だけでなくて、デバイスから取得した生データなどもクラウド側に送ることができて、そうすることで再学習用のデータとして利用することも可能になります。
  • このようなですね推論用のアプリとモデルのデプロイおよびデータの収集がクラウド側で全て管理された形で構築できるようになるのがGreengrassの特徴と言えます。

  • はい。Greengrassはですね様々なデバイスで対応されています。
  • ここでですね具体的な製品名は言えないんですけど、 CPU で動くようなEdgeデバイスまたはディープラーニング用の GPU が載ったEdgeデバイス、さらにはですね我々がフォーカスしているような FPGA がのったデバイス、などのですね様々なデバイスに対応されています。
  • こちらのリンクをクリックしていただくと対応デバイス一覧見れますので、200を超えるようなデバイスが対応していることがわかります。

  • 今回はですね、今回紹介するBluegrassではですね、こちらに紹介している Intel Cyclone V SoC FPGA を搭載したTerasic社製のDE10-Nanoボードというものを利用しております。
  • こちらはですね非常に低消費電力でコンパクトなデバイスとなっています。

  • はい。こっから先はですね、各構成要素について説明していきます。

  • まずはトレーニング部分について説明いたします。
  • 先ほど紹介したBlueoilというOSSを利用したトレーニングをですね、オンデマンドで GPUを利用する形で、オンデマンドで GPU を利用する形で実行するための Jupiter Notebookをリポジトリにて公開しています。
  • 詳細な手順についてはそちらの内容を確認いただければと思いますが、ユーザー様においてはですね、Notebookをポチポチ実行していくだけで、 GPU サーバーがオンデマンドで立ち上がって、我々のBlueoil利用した学習が自動で走るようになっております。

  • ここでですね、お伝えしたいことがですね、SageMakerを利用しているのでデータセット、実験環境、実験コンフィグ、実験結果等の必要な情報がですね、トレーニングジョブという単位で管理されるということです。
  • なので学習を実行するために、そのインプットおよびアウトプットが全て記録されどのような実験環境でどのようなコードでどのようなデータセットを利用してという情報がきちんと管理されます。
  • この点が非常に有用な点でですね、際に自分たちで機械学習の関係を構築して学習を行う行ってたりするとですね、そういった実験の管理っていうものはおろそかになりがちなんですけども、SageMakerを利用することでデフォルトで行ってくれるという点が非常に魅力的なところかなと思っております。
  • あとはですね学習時のリソース使用率とか、例えば GPU どれだけ利用しているか等も、自動で取得してくれる点などは個人的に好みの点だったりします。

  • 次にですね、デバイスへのデプロイについて説明いたします。
  • ここはですね IoT Greengrassがメインになる部分です。
  • どのようにデプロイというものが構成されるのかということについて説明させていただきますと、デプロイ対象のモデルやアプリケーションはですね、クラウド側で全て定義管理されます。
  • 推論アプリは AWS Lambda のファンクションとして、学習済みのモデルは、 S3のどこかのパスに置かれます。
  • 例えばSageMakerで学習したモデルについてはSageMakerの実験に紐づく形で S3 に保存されていますのでそれらを指定することができます。
  • これらを含む deployment という単位がありまして、この deployment という単位をデバイスごとに適用することで、クラウド側でデバイス上で動くアプリケーション全てを管理可能になります。
  • なので、Edge側で何か設定を入れるということはなくて、クラウド側に定義を集約することになります。
  • この全てがクラウドで管理可能になるという点が非常に良いところで、さらにですねプリントは各デプロイ作業ごとにバージョンニングが自動でされるので、過去の特定バージョンへの切り戻しが容易になります。
  • かつですね、クラウドで管理するとは言いますけども、デプロイ後のアプリはですねスタンドアローンで動作させること、動作させることが可能で新たなデプロイ情報については次にデバイスが IoT Core に接続された際に伝播するようになるので、ネットワークにですね、常に接続されてない状態でも動作するという特徴があります。

  • はい。先ほどちょっと説明しましたけどもデバイス側の設定、かなりシンプルで、Greengrass Coreのソフトウェアをインストールして証明書を配置するだけで、すぐにGreengrassのCoreデバイスとして利用可能になります。

  • 次にデータの収集部分について説明します。
  • 今回はですね、Edgeデバイスから最終的には S3にデータをあげるようにしています。
  • データの収集方法は大きく2パターンと記載してますが、今回のような推論の構造化データをKinesis経由で送る場合についてはこのようなパターンになるという形です。
  • Greengrass Connectorというものがありまして、様々な AWS サービスやサードパーティーのコンポーネントと簡単に連携できるように、Greengrassとして提供されるものがあります。
  • 今回公開しているものでは、推論した結果の JSON をKinesis Firehose Connectorを利用することで、Kinesis Firehose配信ストリームを通じてですね、 Amazon S3にデータを送信しています。
  • 他にもですね、Stream Managerというものもあって、これはですね大量の IoT データを収集するような場合においてネットワークに接続されていない断続的な接続が発生するようなシナリオにおいてもEdgeデバイス側でデータの加工などのストリームを構成して、そのデータをですね、まずローカルのStream Managerで処理保存して、ユーザーの定義した優先度に従ってクラウド側に同期するみたいな構成をすること、構成を作ることができます。
  • これらはですねユースケースに応じて適切に選択する必要があるんですけども、 今回のサンプルではですね、まずシンプルに、まずはシンプルにコネクタを利用したデータの収集を行う構成にしています。

  • はい。ここでお伝えしたいのはですねGreengrassを利用することで簡単にデータをクラウドに連携することができるようになるということです。
  • S3などに適切な形でデータを保存することで、それらをSageMaker Groud Truthでアノテーションしても新たな有用なデータセットを作成することなどもできるようになります。
  • 例えば推論の結果から、例えば AB と分類するときにどっちも50%とか、怪しいデータですね、そういったものを取ってきて、そのデータをアノテーションしてモデルを改善していくといった一連のフローというものを構築することができるようになります。
  • ここまでできるとですね、基本的な一連のフローが出来上がるため、あとは個々のユースケースに合わせた必要なデータを収集する仕組みとか、運用方法について、より個々のケースに合わせた構成を検討している段階になるため、具体的な議論や改善を進めることができるようになっていきます。
  • 今回のようなベースの構成をまず構築して動かしてみるということは最初のステップとして非常に有用であると考えています。
  • 以上でですね今回提供しているシステム構成の紹介となります。

  • まとめとしてですね、世界にはEdgeディープラーニングが必要で市場は大きく拡大していっています。
  • その中でLeapMindの極小量子化技術等と超低消費電力のIPを用いることで、精度を保ったまま、ディープラーニングをコンパクトにしてEdge環境で利用することができるようになります。
  • さらに、SageMakerとGreengrassなどを利用することで、Edgeディープラーニングの運用環境をManaged な形で簡単に構築することができるよってことを紹介しました。
  • 特にですね今回の構成についてはCloudFormation Templateとして公開しているので、ユーザーの方はですね、コマンド三つぐらいで、先ほどの環境を構築することができます。
  • 実際に自前でEdgeディープラーニングの環境を構築しようとするとですね、何百台何千台、何万台のデバイスに対応することなどを考える必要があってですね最初の障壁が非常に高いんですね。
  • そこでですね商用導入が進まなくなってしまう、などは結構ありうる話なのですが今回のような AWS の提供する機能のサービスコンポーネントを連携して利用することで、自前構築と比較してですね、導入コスト圧倒的に低くかつオペレーションコストも低くできます。
  • これらの理由からですね、スモールスタート可能であるというところが最大の魅力で、 Edgeディープラーニングの商用導入にあたってはですね、いきなり何万台のデバイスに適用していくというのではなくて、段階的にエッジデバイスをスマート化していくようなプロセスを踏めるというのが、 AWS を利用することで実現できるということをお伝えできればと思っています。

EFFICIERA

  • はい。最後にですね、現在 LeapMind が提供する最新の技術製品であるEFFICIERAについてご紹介させていただきます。
  • 先ほどですねBlueoilという OSS について説明させていただきましたが、EFFICIERAですねBlueoilにて公開されているものを比較して、より高性能かつ低消費電力を実現した CNN 推論演算処理に特化した ASIC および FPGA 用の超低消費電力 AI推論アクセラレーターIPとなります。
  • さらにですねEFFICIERAおよびEFFICIERAを利用するお客様のユースケースに応じたディープラーニングモデルの構築を包括的にサポートする関連製品とサービスを提供する予定となっておりまして、これらを利用していただくことでお客様の課題解決をサポートすることが可能です。

  • でですねEFFICIERAはですね、こちらに示すような27. 7テラ オペレーション パー ワットという電力効率を達成しておりまして、EFFICIERAを ASIC で利用するとこのような電力効率での超低消費電力な推論環境を構築することが可能となります。

  • さらにですねEFFICIERAを ASIC で利用した際にはですね回路構成の選択によって演算性能を調整できるため、物体検出などの画像認識タスクだけでなく超解像などの画像回線タスクのリアルタイム処理に必要な性能レンジをカバーすることができます。」

  • さらにEFFICIERAは FPGA にも適用可能であります。
  • 本日紹介したインテル Cyclone V SoC FPGA において、1.1 テラ オペレーション パー セックの性能を出すことが可能です。
  • これはですね、顔検出や歩行者検出などの一般的なユースケースをカバーすることが可能です。

  • 加えてですね、近藤電子工業様の方で独自に開発している Cyclone V SoC FPGA 搭載のボードにですね、我々のEFFICIERAを対応させておりまして、本日紹介したDE10-Nanoはあくまで開発用ボードなのですが、こちらに示すように、近藤電子工業様の方で開発されているような、実際に商用環境に提供するための量産対応可能なボードの準備というものもさせていただいております。
  • こちらのモードの詳細については、マクニカアルティマカンパニー様宛にお問い合わせいただければと思います。

  • 最後にですねメッセージとしてなんですけども、我々Edge環境でのディープラーニングにフォーカスして事業を行っています。
  • 我々の技術で実際に H 環境での推論などは精度高く実行できるようになっているのですけれども、それを社会実装していくにあたってですね、今回紹介したようなEdgeディープラーニングの運用環境であったりとか、近藤電子様の実際に量産可能なボードを世に出すとか、そういったところもですね、様々なパートナー様と連携して行っておりますので、そういった我々が考えるEdgeディープラーニングを実現するという世界観などに共感していただける方や企業様がいらっしゃいましたら、ぜひご連絡いただけると非常に嬉しいなと考えております。

  • 本日の発表は以上となります。
  • ご清聴ありがとうございました。

Share this article

facebook logohatena logotwitter logo

© Classmethod, Inc. All rights reserved.